人工智能与职场公平:为什么重要、为什么是现在?
文/周尚颐博士(Christine Chow)、Paris Will和Mark Lewis
“
如果正确应用,人工智能可以提高公平性、透明度、效率,甚至可以纠正历史偏见,包括人类强加于己的种族和性别偏见。然而,当以“即插即用”的方式应用人工智能时,我们可能会加剧社会和经济不平等风险
投资者视角:
AI有益于卓越绩效,
但需善用并增强信息披露
投资者越来越多地将人力资本管理 (HCM) 视为实现卓越业绩的决定性因素。在围绕“工作的未来”的讨论中,我们承认未来已经到来——劳动力现在更具流动性、更加多样化、更加敏捷灵活,并且越发受到更多数据和分析的影响。
新冠疫情加速了企业的数字化转型——从简历筛选和AI视频面试,到虚拟入职和数字工作场所互动。混合工作环境中的雇员活动为技术提高效率提供了巨大机会,但并非所有公司都清楚明确地说明何时以及如何对雇员采用相关技术分析。在最近的一期BBC节目中,为招聘而设计的人工智能技术却用于设定裁员目标,对雇员产生意想不到的心理影响,并可能影响雇主(公司)品牌和财务状况。纪录片《社会困境》(2020年拍摄)中一系列对科技领导者的采访强调了在工作场所收集信息存在危险,采访还展示了相关行为如何通过引起焦虑和抑郁来影响人的心智。
总部位于英国的非政府组织Share Action于2016年底建立了劳动力信息披露倡议 (Workforce Disclosure Initiative,WDI),以提高企业在劳动力问题上的透明度和问责制。WDI得到包括汇丰资产管理在内的68家机构支持,资产管理规模超过10万亿美元。2021年,WDI引入了一项新指标,要求公司描述用于监督雇员的监测措施,以及公司如何确保这不会对雇员的隐私权产生不相称的影响。
除了监控之外,投资者还认识到,一般来说很难将人类行为简化为一种算法。如果要让人工智能作为一种工具很好地发挥作用,那么决策规则要可量化,计算机要能够几乎瞬时地与海量数据交互。与之相反,如果需要通过语境(或者说上下文)去理解人类特征、如果对人类行为的影响很微妙,人工智能就无法好好发挥工具的作用。(Christine Chow)
学者视角:
在AI比人类表现出更少决策偏见的环境下,
可以采用AI
评估人力资本管理(HCM)中人工智能决策(有效性)的一种科学方法是:评估算法决策的偏见程度。人工智能已被提议用于消除招聘、晋升和薪酬决策等领域的人类偏见,因此(为了不违背初衷)必须对其进行评估,确保使用人工智能能够削弱而不是强化人类的认知偏见。人工智能领域研究不断进步,关于人力资本管理(HCM)中特定类型AI技术适用性的结论也已明确,我们必须始终警醒自己评判AI的方式,因为研究表明,我们(总是)通过与“最佳”决策比照来评判人工智能,而这么做并不合适。这或许(正好)解释了采用人工智能面临的强烈反对。(其实我们面临的)现实情况是,采用人工智能将取代的是人类决策(而非最佳的、完美的决策),人类决策还远不完美,常常充满偏见。因此,评估人力资本管理(HCM)中AI技术适用性的更好方法是直接比较人工智能和人类决策结果。在人工智能比人类表现出更少决策偏见的环境下,可以采用人工智能。
人工智能的能力被认为分为两大类:弱人工智能和强人工智能。弱人工智能意味着它特定于一项任务,而强人工智能意味着模仿人类智能并可以推广到其他环境。人工智能目前在特定环境中表现良好,但普适性有限。因此,对于人力资本管理(HCM),应该谨慎使用在特定语境数据集中验证的AI。在考虑人力资本管理(HCM)中的人工智能功能应用时,必须慎终如始考虑,特别是许多人工智能的拟议用途,其实反映了对强人工智能的需求。通过这种方式,公司应该设定他们对人工智能能够可靠完成的期望。
由于工作环境瞬息万变,我们建议使用动态而非静态AI——算法应定期使用新数据不断更新,以防止决策过时、不相关,甚至不再适合目的。(Paris Will)
法律和监管视角:
理解法律与监管对引入AI系统和流程的影响
理解法律和监管对“在工作场所内、工作场所周围引入和部署AI系统和流程”(可能产生)的影响,肯定符合所有相关者的利益——特别是那些可能并不知道他们应该关心这件事的人。对一些利益相关者来说,如果未能理解和解决这些法律和监管影响,其造成的后果可能非常严重。
在试图理解这些影响时存在一个问题,即世界上几乎没有专门适用于人力资本管理(HCM)领域人工智能应用的法律和法规。在不同的司法管辖区都有前瞻性的法律法规,旨在专门解决(AI在工作场所应用的)相关问题,(例如)最值得注意的是欧盟提出的一项非常重要的法规——其不仅在欧盟,也将在欧盟以外产生效用。但是,在许多国家,雇主(如何)在工作场所应用人工智能都有一套现行的法律和规章适用。
遗憾的是,这些法律法规体系何时、如何、为何适用,以及适用的含义,都不是很明显明确。然而显而易见的是,人们越来越担心和抵制在工作场所内外使用人工智能、自动化决策和相关流程,而且监管和法律的挑战眼下正在发生。
我们试图解决这个问题:首先,呼吁董事会从问责和治理考虑(布局);接下来,提醒法律法规何时、如何以及为何适用,或可能适用;此外,还需要充分注意以下情形:
·现在专门适用于工作场所采纳和使用人工智能的一系列法律法规;
·欧盟《人工智能法》提案的潜在影响;
·最有可能适用于人力资本管理(HCM)领域人工智能应用的、各国现有的一些法律法规,但必须有司法解释和适用。
在此过程中,我们希望所有(与HCM领域AI应用)相关人员(以及应该关注此事的人)能够更好地理解、规划和管理应对相关事宜,即当我们采用和依赖“在工作场所内外引入和部署AI系统和流程”后可能出现的(新的)治理方法、法律和监管、声誉影响、风险和暴露等。(Mark Lewis)
行之有效的方法:
公司应谨慎接受并自上而下做好准备
人工智能分析不太可能在现在和未来的工作中消失。因此,为了在人力资本管理(HCM)中更好、更适当地使用人工智能,我们需要谨慎地接受它,并尊重雇员:
·董事会层面的监督应侧重于阐明人工智能应用的意图;建立明确的人工智能培训和测试流程,包括回溯测试;确保人工智能应用程序使用的透明度和对其结果的问责;并要求对供应链中可能使用人工智能的第三方产品进行有效和彻底的尽职调查。这种尽职调查目前经常缺失,或由缺乏足够专业知识的人进行;
·公司应了解在工作场所采用和依赖人工智能系统和相关流程的法律和监管影响,并妥善管理;
·公司应该建立一个机器学习平台,以创建自动化和可重复的数据准备过程和特征工程,确保随着时间的推移(能够)保持一致性。该平台应具有数据版本控制功能,以跟踪使用的数据、不同模型实验和测试结果的变化。应该有一个反馈循环和相关文档,整合成果和经验教训,进而随着时间的推移提高绩效;
·公司应该明确责任主体,并设置一套纠正方法和明确的补救机制,以确保在不同的情况下都有人负责;
·在与公司打交道时,投资者可以要求披露和解释下文中强调的关键绩效指标 (KPI),其中包括招聘、文化和表现(图1)。
图1:人力资本管理流程的分类作者周尚颐博士(Christine)系汇丰资产管理的全球管理主管和董事会成员。她在投资管理、研究和咨询方面拥有25年的经验,专注于技术和可持续发展。她也是国际公司治理网络的董事会成员,并于2021年被任命为香港财务报告委员会的名誉顾问。Paris Will系伦敦经济学院包容性倡议的首席企业研究顾问。Mark Lewis目前是英国律师事务所 Macfarlanes LLP的高级顾问,伦敦政治经济学院法学院客座教授,拥有30年的经验。
原文请见(复制后用浏览器打开):AI and fairness in the workplace: why it matters and why now | LSE Business Review
这篇博文是为了纪念白皮书《工作的未来:投资者对人力资本管理中人工智能伦理的期望》于2022年4月7日发布。会议注册:
https://lse.zoom.us/meeting/register/tZcqcumspjMsH9VfEaXR7wKRewZQ2B0bH_4F
博文仅代表作者观点,不一定代表LSE商业评论或伦敦政治经济学院的观点。